Services by Handelsblatt Media Group GmbH sucht in Düsseldorf eine/n (Senior) Data Engineer (gn) (ID-Nummer: 13317973)
Asklepios Service IT GmbH sucht in eine/n Senior Data Engineer (w/m/d) (ID-Nummer: 13601947)
We believe that an inclusive and respectful workplace culture fosters a sense of belonging among our employees, builds a stronger team, and allows individual employees the opportunity to maximize their personal potential IQVIA is a leading global provider of clinical research services, commercial insights and healthcare intelligence to the life sciences and healthcare industries. We create intelligent connections to accelerate the development and commercialization of innovative medical treatments to help improve patient outcomes and population health worldwide.
This commitment drives us to deliver leading‑edge technology, sustainable innovation, and best‑in‑class service to customers worldwide. And that’s where you come in — because our people make it happen. We offer a collaborative, inclusive, and flexible work environment, competitive compensation, and comprehensive wellness and benefits programs.
#Health : Your health matters to us – benefit from health days, company sports activities, office yoga, and free support from the pme Family Service. #Holiday: We offer you 30 days of vacation per year based on a full-time position, plus December 24th and 31st off. #OneCompany : Stronger together – with over 10,000 employees from 95 nations, we promote an international and collegial corporate culture.
#Health: Your health matters to us – benefit from health days, company sports activities, office yoga, and free support from the pme Family Service. #Holiday: We offer you 30 days of vacation per year based on a full-time position, plus December 24th and 31st off. #OneCompany: Stronger together – with over 10,000 employees from 95 nations, we promote an international and collegial corporate culture.
NTT DATA Business Solutions AG sucht in eine/n Senior SAP Berater:in Global Trade Services (GTS) (ID-Nummer: 13673136)
NTT DATA Business Solutions AG sucht in eine/n Senior Service Delivery Manager (w/m/d) (ID-Nummer: 13684888)
NTT DATA Business Solutions AG sucht in eine/n Senior SAP Berater:in Global Trade Services (GTS) (ID-Nummer: 13456133)
Über uns Die OPITZ CONSULTING Deutschland GmbH ist ein führender Partner der Digitalisierung. Als Digitale Service Manufaktur beraten wir und entwickeln Software mit über 400 Kolleginnen und Kollegen. Unsere Kunden: vom Mittelstand bis zum DAX-Konzern – gemeinsam auf dem Weg in die digitale Zukunft.
CANCOM SE sucht in eine/n Senior System Engineer Managed Services Infrastructure Service Operations (m/w/d) (ID-Nummer: 13637937)
Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Our people at JLL and JLL Technologies are shaping the future of real estate for a better world by combining world class services, advisory and technology for our clients. We are committed to hiring the best, most talented people and empowering them to thrive, grow meaningful careers and to find a place where they belong.
INFOMOTION GmbH sucht in Frankfurt, Köln, Hamburg, Berlin,München,Stuttgart eine/n Senior Sales Manager Financial Services - Vertrieb von Data- & Analytics-Lösungen (m/w/d) (ID-Nummer: 13110033)
Bertelsmann Global Business Services GmbH sucht in eine/n Projektmitarbeiter (m/w/d) - SAP Business Data Cloud / Data & Analytics (ID-Nummer: 13673425)
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
What you will do Gather, analyze, and interpret data to fulfill reporting requests from business stakeholders Translate complex data into clear, actionable insights that support business strategy Support ad hoc analysis and contribute to data-driven decision-making Automate routine reporting processes and maintain existing reports to ensure reliability and improve data workflows Maintain, design, and implement advanced dashboards using tools like Google Looker Studio, enabling self-service analytics across the organization Collaborate with data engineers, data scientists, and stakeholders across the organization to ensure data quality and consistency while delivering data-driven insights that support supply-related business decisions Communicate findings effectively to technical and non-technical audiences Foster a data-driven culture within the organization, promoting the use of analytics in decision-making processes Who you are You have at least 1-2 years of experience as a Data Analyst Proficiency in SQL for complex data analysis, reporting, and querying large datasets Experience with Google BigQuery Experience with data visualization tools (e.g., Looker Studio, Excel, or similar) to create compelling dashboards and reports Excellent communication skills in English Ability to translate fuzzy business requirements from diverse stakeholders into analytical requirements.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B.
Über uns Die OPITZ CONSULTING Deutschland GmbH ist ein führender Partner der Digitalisierung. Als Digitale Service Manufaktur beraten wir und entwickeln Software mit über 400 Kolleginnen und Kollegen. Unsere Kunden: vom Mittelstand bis zum DAX-Konzern – gemeinsam auf dem Weg in die digitale Zukunft.
B. Datenflüsse über mehrere Services, Batch-/Streaming-Patterns) Sehr gute Deutschkenntnisse (idealerweise C2/Muttersprache), Englischkenntnisse sind von VorteilLust auf deine nächste Herausforderung?
STRABAG Property and Facility Services GmbH sucht in eine/n Senior Inhouse Consultant Business Intelligence / ETL (m/w/d) (ID-Nummer: 13671871)
Über uns Die OPITZ CONSULTING Deutschland GmbH ist ein führender Partner der Digitalisierung. Als Digitale Service Manufaktur beraten wir und entwickeln Software mit über 400 Kolleginnen und Kollegen. Unsere Kunden: vom Mittelstand bis zum DAX-Konzern – gemeinsam auf dem Weg in die digitale Zukunft.
Strong SQL skills across MS SQL, MySQL, PostgreSQL, incl. analytical queries Experience with Azure (Databases, Data Lake Gen2) PowerShell scripting Familiarity with ITIL4 and service management frameworks Solid general IT knowledge (OS, networking) A very renowned company Possibilities to work remote Ihr Kontakt Ansprechpartner Michelle Winkels Referenznummer 861119/1 Kontakt aufnehmen E-Mail: michelle.winkels@hays.de Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Develop, maintain, and optimize data pipelines and ETL/ELT processes using Databricks Implement version control workflows and collaborate using GitHub Build and maintain CI/CD pipelines with GitHub Actions Design and implement scalable data transformations using Python/PySpark Write efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skills Proficiency with GitHub for version control and collaboration Experience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySpark Experience with Microsoft Azure and knowledge of Data Vault data modeling is an advantage Experience with Kafka or other streaming technologies is an advantage Understanding of Unity Catalog for data governance is an advantage Experience with Splunk for monitoring and troubleshooting is an advantage Renowned client Remote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Analyze and understand the existing OT application landscape, including support and troubleshooting of operational systemsMonitor and manage access to 3rd-party SQL databases, including administrative tasksIntegrate new data sources into the OT landscape and support related business functionsServe as the main point of contact for Business customers regarding OT real-time application and data requirementsManage and coordinate internal and external development/support teams; ensure knowledge transfer to 1st Level SupportSupport and document OT infrastructure, including BoP (Balance of Plant) and Substation topologiesUtilize and maintain AVEVA PI systems and Bazefield for operational monitoring and analytics Requirements: AVEVA and Bazefield experienceSolid experience in real-time data processing (process industry, utilities, or renewables preferred)Experience leading small teams (up to 5 people) Experience with SCADA, real-time data acquisition, Alarm & Event handling (renewables experience highly valued)Practical experience with BoP and Substation environmentsSolid understanding of industrial protocols: OPC-DA, OPC-UA, IEC 60870-5-104, Modbus, etc.Strong SQL skills across MS SQL, MySQL, PostgreSQL, incl. analytical queriesExperience with Azure (Databases, Data Lake Gen2)PowerShell scriptingFamiliarity with ITIL4 and service management frameworksSolid general IT knowledge (OS, networking) A very renowned companyPossibilities to work remote Ihr Kontakt Ansprechpartner Michelle Winkels Referenznummer 861119/1 Kontakt aufnehmen E-Mail: michelle.winkels@hays.de Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Develop, maintain, and optimize data pipelines and ETL/ELT processes using DatabricksImplement version control workflows and collaborate using GitHubBuild and maintain CI/CD pipelines with GitHub ActionsDesign and implement scalable data transformations using Python/PySparkWrite efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skillsProficiency with GitHub for version control and collaborationExperience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySparkExperience with Microsoft Azure and knowledge of Data Vault data modeling is an advantageExperience with Kafka or other streaming technologies is an advantageUnderstanding of Unity Catalog for data governance is an advantageExperience with Splunk for monitoring and troubleshooting is an advantage Renowned clientRemote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Sektkellerei KG sucht in eine/n Solution Consultant – Data & Process Integration Services/Master Data Management (d/m/f) (ID-Nummer: 12679754)
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use cases Develop efficient Spark SQL transformations for large-scale datasets Use Python for data processing, orchestration, and automation Create and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitions Ensure data quality and correctness, including handling late data, duplicates, and adjustments Implement validation, data quality checks, and reconciliation logic Work with business stakeholders to gather requirements, define metrics, and translate needs into pipelines Collaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualification Experience in data engineering or a related field Strong proficiency in Spark SQL for large-scale data transformations Solid Python skills for data processing and pipeline development Strong understanding of data modeling (fact tables, dimensions, grain, SCDs) Hands-on experience building and maintaining batch pipelines in production High attention to detail with a strong focus on data quality and metric integrity Ability to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z. B. CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z. B. CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Manage and refine business and technical requirements in collaboration with stakeholders Coordinate data integration activities with various source systems Design and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodology Develop and optimize data pipelines using SQL and Python Work with tools like Databricks and dbt to build scalable data transformation workflows Ensure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements management Experience in coordination with source systems Experience with data modeling in a Data Warehouse environment: Focus on Data Vault Good German and English language skills Databricks experience is nice to have Experience with dbt (data build tool) is an advantage Experience with SQL (as a query language) and Python is an advantage Banking experience is an advantage Renowned client Remote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Designing and implementing the ETL pipeline and MongoDB scheme Managing the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenance Integrating new data sources, including the development of robust parsers and text cleaning workflows Enhancing the user experience (e.g., building a data warehouse and APIs) User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experience Experience with NoSQL/MongoDB database Experience or knowledge of ETL orchestration tools, such as Airflow Good understanding in the area of Text Analytics/Mining, TDM, and LLMs Strong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Damit ermöglichst Du eine effiziente und sichere Bereitstellung von Daten für Analyse- und Reportingzwecke und kümmerst Dich um die Datenmodellierung, ETL-Prozesse sowie die Data Warehouse-Automatisierung. Hierzu nutzt Du moderne Tools und Cloud-Services und entwickelst unsere BI-Plattform und -Architektur weiter. Im Betrieb überwachst und optimierst Du die Systemperformance, die Betriebskosten sowie die Sicherheitsstandards.
Du verbesserst die UX vorhandener Web-Anwendungen. Du erweiterst und entwickelst Backend-Services und APIs. Du verwendest relationale und dokumentenbasierte Datenbanken als das Gerüst unserer Prüfstände. Du gehtst proaktiv auf die Wünsche der Entwickler und Anwender unserer Prüfumgebungen ein.
P & P wächst mit neuen Aufgaben für positiv denkende Anpacker. Das ist Ihre Chance! Die Deutsche Post Customer Service Center GmbH (DP CSC) ist eine hundertprozentige Tochtergesellschaft der Deutschen Post AG und bildet den Kundenservice für den Unternehmensbereich P & P ab.
Unser Stromspeicher SENEC.Home erhielt zuletzt vom Deutschen Institut für Service-Qualität den „Deutschen Exzellenzpreis 2020“. Durch intelligente Features wie die SENEC.Cloud und die SENEC.Cloud To Go zählen unsere Energiespeicher zu den innovativsten und wirtschaftlichsten Lösungen am Markt.
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Manage and refine business and technical requirements in collaboration with stakeholdersCoordinate data integration activities with various source systemsDesign and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodologyDevelop and optimize data pipelines using SQL and PythonWork with tools like Databricks and dbt to build scalable data transformation workflowsEnsure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements managementExperience in coordination with source systemsExperience with data modeling in a Data Warehouse environment: Focus on Data VaultGood German and English language skillsDatabricks experience is nice to haveExperience with dbt (data build tool) is an advantageExperience with SQL (as a query language) and Python is an advantageBanking experience is an advantage Renowned clientRemote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build, and optimize batch data pipelines for internal tool use casesDevelop efficient Spark SQL transformations for large-scale datasetsUse Python for data processing, orchestration, and automationCreate and maintain data models (facts, dimensions, aggregates) with clear grain and metric definitionsEnsure data quality and correctness, including handling late data, duplicates, and adjustmentsImplement validation, data quality checks, and reconciliation logicWork with business stakeholders to gather requirements, define metrics, and translate needs into pipelinesCollaborate with infrastructure teams on standards, performance tuning, and best practices Bachelor oder Master degree in a technical field or an equivalent qualificationExperience in data engineering or a related fieldStrong proficiency in Spark SQL for large-scale data transformationsSolid Python skills for data processing and pipeline developmentStrong understanding of data modeling (fact tables, dimensions, grain, SCDs)Hands-on experience building and maintaining batch pipelines in productionHigh attention to detail with a strong focus on data quality and metric integrityAbility to communicate clearly with non-technical stakeholders and translate business needs into data solutions Remuneration in the most attractive collective agreement in the industry Annual leave entitlement of 30 days Generous working time account with the possibility to pay overtime Subsidization of direct insurance (as company pension scheme) Ihr Kontakt Ansprechpartner Kristina Meng Referenznummer 863942/1 Kontakt aufnehmen E-Mail: kristina.meng@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Designing and implementing the ETL pipeline and MongoDB schemeManaging the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenanceIntegrating new data sources, including the development of robust parsers and text cleaning workflowsEnhancing the user experience (e.g., building a data warehouse and APIs)User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experienceExperience with NoSQL/MongoDB databaseExperience or knowledge of ETL orchestration tools, such as AirflowGood understanding in the area of Text Analytics/Mining, TDM, and LLMsStrong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z. B. CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z. B. CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
KPMG AG Wirtschaftsprüfungsgesellschaft sucht in Düsseldorf, München, Berlin, Frankfurt, Hamburg, Stuttgart eine/n (Senior) Consultant SAP Planning & Analytics - Financial Services (w/m/d) (ID-Nummer: 13314431)
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build and optimize enterprise Tableau dashboards Develop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses) Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrency Apply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning) Design and implement secure enterprise Tableau configurations, including row-level security aligned with role concepts Ensure compliance with IT security, data governance and regulatory requirements Collaborate with data platform teams, DataOps, IT security/compliance and controlling solutions Produce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test cases Conduct testing for accuracy, performance, access control and stability of dashboards and data models Provide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environments Proven ability to build management-ready dashboards for finance/controlling or other regulated industries Practical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrations Advanced SQL skills across Hive, Impala, Spark SQL, Databricks SQL Solid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principles Experience implementing row-level security and with enterprise BI solutions Strong knowledge of performance optimization in Tableau, Hadoop and Databricks environments Ability to operate in regulated financial environments with security, compliance and data governance constraints Excellent communication and documentation skills in English International client Remote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Our highly specialised consultants can cater to your every wish and expectation and will prepare you for interviews and contract negotiations. Give it a try and learn what the market has to offer – our services are free of charge, non-binding and discreet! We look forward to hearing from you. Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Stellenbeschreibung Du modellierst und erstellst Data Marts für skalierbare Self-Service-Analysen.Du analysierst Strukturen und Abläufe des Geschäftsmodells und übersetzt sie in eine saubere Datenarchitektur.Demnach unterstützt und berätst du die Fachbereiche bei der Definition klarer KPIs und belastbarer Datenverträge.Du sicherst die Datenqualität Ende-zu-Ende (Validierung, Monitoring, Lineage, SLAs, kontinuierliche Verbesserung).Außerdem entwickelst du Power-BI-Dashboards inkl.
Stellenbeschreibung Du modellierst und erstellst Data Marts für skalierbare Self-Service-Analysen.Du analysierst Strukturen und Abläufe des Geschäftsmodells und übersetzt sie in eine saubere Datenarchitektur.Demnach unterstützt und berätst du die Fachbereiche bei der Definition klarer KPIs und belastbarer Datenverträge.Du sicherst die Datenqualität Ende-zu-Ende (Validierung, Monitoring, Lineage, SLAs, kontinuierliche Verbesserung).Außerdem entwickelst du Power-BI-Dashboards inkl.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du erarbeitest Lösungen für die Weiterentwicklung der internationalen Business Intelligence Strategie in Bezug auf BI Architektur und den Self Service Ansatz für alle ALDI Nord Länder auf Basis führender Microsoft Cloud Technologie Du unterstützt die Projektteams bei der Konzeption und Implementierung eines ganzheitlichen BI und Analytics Lösungsansatz, von der Datenbereitstellung bis zum interaktiven Analyse Dashboard Du erarbeitest gemeinsam mit deinen Kollegen geeignete Governance Prozesse für die internationale Nutzung von Daten für alle ALDI Nord Länder Du führst Teamkollegen auf fachlicher Ebene und bist Ansprechpartner bei konzeptionellen sowie fachbereichsübergreifenden Architekturfragen für aktuelle und zukünftige Business Intelligence Lösungen Du unterstützt den Ausbau und die Weiterentwicklung der Analyseangebote auf der internationalen Analyticsplattform Du unterstützt deine Teamkollegen sowie die Kollegen in den Fachbereichen durch Beratung und Schulungen bei der Interpretation von Daten und Informationen Du evaluierst neueste Technologien und Features, erprobst diese in Form von Proof of Concepts und führst sie als neue (Teil )Produkte für die Data & Analytics Plattform ein Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in Wirtschaftswissenschaften, Statistik, Business Intelligence, Data Analytics oder anderen einschlägigen Bereichen hast du erfolgreich abgeschlossen 5+Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Governance oder einer vergleichbaren Tätigkeit (gerne im Kontext einer Unternehmensberatung) und idealerweise Erfahrung in der fachlichen Führung von Teamkollegen Du verfügst über weitreichende Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem mit sowie ausgeprägte Erfahrungen mit Business Intelligence Tools wie Microsoft Power BI, Tableau oder Qlik Sense Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Senior-Business-Intelligence-Engineer-Business-Intelligence-Architekt-m-w-d-Essen